iT邦幫忙

2022 iThome 鐵人賽

DAY 5
0
Security

區塊鏈與聯邦學習系列 第 5

隱私保護機器學習(Privacy-Preserving ML, PPML)

  • 分享至 

  • xImage
  •  

從機器學習(ML)的重要性和相關的隱私風險,產生了一個新的領域「隱私保護機器學習(Privacy-Preserving Machine Learning, PPML)」,推進和開發針對機器學習(ML) 中訊息洩漏的對策。

當引入其中一些機器學習(ML)風險和攻擊時,它們純粹是理論上的;因此,由於機器學習(ML)的快速進步和演變,攻擊者導致利用這些弱點以破壞、竊取這些資料並從中獲利。

隱私保護機器學習(PPML)提出了幾種技術和對策人們普遍認為,如果資料永遠不會讓持有者擁有以供機器學習(ML)演算法使用,那麼資料隱私就更高,與此相關的最廣泛和研究的領域是聯邦學習(FL)。

隱私保護機器學習(PPML)

  • 安全多方計算(Secure Multi-Party Computation, SMPC)
    一種在不受信任的環境中執行操作,而不洩露資料的方法。
    • 可以保護模型權重,並允許多個工作節點使用自己的資料集參與訓練階段,與聯邦學習(FL)一樣是一種分散式機器學習。
    • 仍然會受到成員推理攻擊(Membership Inference Attacks)等逆向工程攻擊方式,可以直接從模型中提取有關資料集的敏感資料。
    • SPDZ 通訊協定
  • 差分隱私(Differential Privacy, DP)
    可以有效地保護資料。
    • 矩會計(Moment Accountant)
  • 同態加密(Homomorphic encryption, HE)
    一種加密形式,允許對密文進行特定形式的代數運算,得到仍然是加密的結果。

上一篇
集中式機器學習(Centralized Machine Learning)
下一篇
資料保護法(Data Protection Law)
系列文
區塊鏈與聯邦學習30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言